Продолжаем вас знакомить с решением номер 1 для создания отказоустойчивых хранилищ виртуальных машин для серверов VMware vSphere 5 - StarWind iSCSI Enterprise. Блоггер Jake Rutski провел интересное тестирование, в котором он сравнил производительность продуктов StarWind iSCSI Enterprise и Microsoft iSCSI при работе виртуальных машин с хранилищами. Итак, характеристика тестового окружения...
На сайте известного многим из вас проекта VMware Labs появилось очередное приложение. Бесплатное средство VMware vBenchmark, поставляемое в виде готового виртуального модуля (Virtual Appliance на базе SLES 11), позволяет измерять ключевые метрики производительности инфраструктуры VMware vSphere, анализировать времена типичных операций в виртуальной среде, а также определять показатели качества обслуживания для виртуальных сервисов (например, простой хост-серверов или сколько времени простоя помогают избежать функции высокой доступности).
То есть основная мысль vBenchmark - предоставить пользователю количественные показатели преимуществ, получаемых средствами инфраструктуры виртуализации VMware vSphere.
Основные возможности VMware vBenchmark:
Получение метрик с одного или нескольких серверов vCenter
Возможность включения или исключения хостов на уровне кластера из анализа
Возможность сохранять запросы к инфраструктуре и сравнивать их между собой в разные точки времени
Воможность сравнить ваше облако с аналогами по региону, отрасли и размеру организации, чтобы определить, насколько хорошо оно устроено
Последняя возможность предполагает загрузку результатов анализа в общий репозиторий, который представляет собой глобальную базу данных организаций.
Статистика инфраструктуры:
Метрики эффективности виртуальной среды:
Показатели типовых операций:
Все это и остальные вкладки утилиты вы можете увидеть в ролике, записанном Владаном Сегетом:
Скачать виртуальный модуль VMware vBenchmark можно по этой ссылке. Отметим, что он поставляется как в форматах OVF/OVA (vCenter+vCloud Director), так и в обычном VMX, что позволит развернуть продукт на VMware Workstation, Fusion и Player.
Как мы уже не раз писали, в VMware View 5 появилась новая возможность отключать функцию Build to Loseless (BTL) для доступа к виртуальным ПК. Ее отключение несколько ухудшает качество передаваемой картинки, зато существенно увеличивает быстродействие (снижение требований к каналу до 30%) и отклик элементов отображаемого рабочего стола пользователя. При этом можно регулировать различные параметры, определяющие качество картинки, FPS и другое средствами групповых политик.
Конфигурируются эти настройки через шаблон групповой политики (GPO) pcoip.adm, расположенный на сервере VMware View Connection Server в папке (там же лежат и другие шаблоны):
Самый актуальный для пользователей VMware View 5 вопрос - это как сделать так, чтобы при доступе из локальной сети предприятия (LAN) пользователь входил на десктоп с включенным BTL (в условиях, когда канал широкий), а при доступе из интернета (WAN, узкий канал) можно было бы BTL отключить для повышения производительности.
Средствами View Manager, к сожалению, этого сделать нельзя, поэтому Dwayne Lessner придумал вот такой способ.
Нам понадобится следующее:
Шаблон политики vdm_agent.adm – используем его для запуска VB-скрипта или сценария PowerShell при соединении пользователя (Connect или Reconnect)
Шаблон
pcoip.adm – используем его для установки параметров Frame Rate, Image quality и других.
Прежде всего, для проверки используемых настроек (включен BTL или выключен) можно использовать лог, находящийся в папке виртуального ПК по адресу :\ProgramData\VMware\VDM\logs (для Windows 7). Называется он pcoip_server*timestampOfConnection*.log.
Там будут подобные строчки:
02/02/2012, 22:04:16.737> LVL:0 RC: 0 MGMT_ENV :cTERA_MGMT_CFG::load_server_config_from_stores[1]: Did not process over-rideable pcoip defaults from registry.
Если пользователь соединился из внешней сети (WAN), то в этом ключе будет записано имя Security Server. Для сторонних брокеров соединений (например, F5) можно читать ключик:
Теперь Dwayne нам предлагает вот такой скрипт (вы можете написать его самостоятельно, например, на PowerShell, где он будет выглядеть элегантнее):
'Declare Environment Variables
Dim ViewBroker, BTL
'Set Environment Variables
Set WSHShell = CreateObject("WScript.Shell")
'Lookup values in registry and assign to variables
ViewBroker = WSHShell.RegRead("HKEY_CURRENT_USER\Volatile Environment\ViewClient_Broker_URL")
BTL = WSHShell.RegRead("HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Teradici\PCoIP
\pcoip_admin_defaults\pcoip.enable_build_to_lossless")
'Check Build to Lossess and if they are connecting to a security server
If ((ViewBroker = "External-Broker-Name") And (BTL = 1)) Then
WSHShell.RegWrite "HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Teradici\PCoIP\
pcoip_admin_defaults\pcoip.enable_build_to_lossless","0","REG_DWORD"
'Test Message Box inform the user
MsgBox "Your Connected from a Remote Location, to get better performance please disconnect and connect to get optimal user experince. A new setting must be applied"
End If
'Check to see if they connected from home and turned BTL off but are now back on the LAN
If ((ViewBroker = "Internal") And (BTL = 0)) Then
WSHShell.RegWrite "HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Teradici\PCoIP\
pcoip_admin_defaults\pcoip.enable_build_to_lossless","1","REG_DWORD"
'Test Message Box inform the user
MsgBox "Your Performance is optimized for a slow link. To have the best user experience disconnect your session and log back in. A new setting must be applied"
End If
Ну а дальше конфигурируете групповую политику, где прописываете VB или PowerShell скрипт в CommandsToRunOnConnect и Reconnect:
После этого, конечно, пользователю будет нужно делать Reconnect при смене сети LAN/WAN, но зато процесс будет частично автоматизирован. Остается вопрос - почему такую важную вещь VMware не сделала в GUI своего View? Ведь при работе через инет по медленным соединениям виртуальные ПК откровенно тормозят и без отключения BTL просто не обойтись.
Тем из вас, кто следит за новостями в сфере виртуализации настольных ПК, должна быть известная организация Login Consultants, которая постоянно проводит различные сравнения продуктов для серверной и десктопной виртуализации. В частности, известен их фреймворк Login VSI для обмеров производительности виртуальных ПК.
На этот раз коллеги провели тесты производительности качества работы с виртуальными ПК в VMware View 5 (протокол PCoIP) и Citrix XenDesktop 5.5 (технология HDX):
В тесте был использован тот же Login VSI, с помощью которого генерировалась нагрузка на ПК. В итоге - XenDesktop показал лучшие результаты (FPS для десктопа) при меньших требованиях десктопа к каналу (bandwidth). В отличие от других сравнительных тестов, в этом примечательно то, что модель нагрузки, конфигурация сети, а также набор оборудования были взяты из документа "Desktop Virtualization with VMware View 5.0 Compared to View 4.6", о котором мы уже писали вот тут (также от Login Consultants). Это документ, утвержденный компанией VMware. Так что, объективности ради, стоит признать, что VMware View пока проигрывает Citrix XenDesktop в плане производительности пользовательских сессий.
Как вы знаете, Teradici при помощи VMware занимается разработкой протокола PCoIP, который реализуется аппаратными (Teradici) и программными (VMware) модулями. В частности VMware View 5 поддерживает программную реализацию протокола PCoIP, об улучшениях которого вы можете прочитать вот тут.
Но что делать с виртуальными машинами, которые требуют мощностей графических карт, которые отсутствую в хост-серверах виртуализации? Это могут быть программы графического моделирования, медицинские приложения, медиа-сервисы и т.п. VMware и Teradici предлагают такое решение: в датацентре ставятся мощные рабочие станции с сильными GPU, в них устанавливаются аппаратные карточки PCoIP, которые позволяют на высокой скорости передавать картинку уже на обычный ПК или тонкий клиент с VMware View Client:
При этом такая рабочая станция находится под управлением VMware View Connecion Server через VMware View Agent, устанавливаемый на ней. Преимущество такого подхода только одно - безопасность. Машина и ее данные находятся в датацентре компании и обслуживаются его персоналом.
У VMware появилась полезная презентация на русском языке по решению наиболее часто встречающихся проблем в работе решения VMware View и виртуальных ПК.
Освещаются такие компоненты решения, как VMware Security Server, PCoIP, Composer и другие.
Презентация из серии материалов по решению проблем, которые готовит служба технической поддержки VMware.
Многие из тех, кто следит за новостями в сфере виртуализации, помнит, что достаточно давно компания VMware выпустила продукт VMware vCenter AppSpeed, предназначенный для мониторинга и решения проблем производительности на уровне приложений, работающих в виртуальных машинах.
Продукт продвигался весьма форсированно и выглядел весьма красиво. Но, как говорится, не пошел. Я думаю, что не пошел он, во-первых, из-за сильной конкуренции со стороны аналогов, а, во-вторых, из-за того, что это была "непонятная и бесполезная хрень", хотя идея мне нравилась. Ну и надо отметить абсолютно беспомощную маркетинговую компанию по его продвижению.
vCenter AppSpeed давно не обновлялся, и последняя версия vSphere, с которой он совместим - это vSphere 4.0 Update 2:
Официальное сообщение об End of Life продукта vCenter AppSpeed доступно тут. 3 января 2012 года заканчивается поставка лицензий на данное ПО, а поддержка заканчивается 15 сентября 2012 года.
На сайте steelbytes.com недавно обновилась бесплатная утилита HD_Speed, которая позволит вам протестировать производительность дисков в виртуальных машинах VMware vSphere или на других платформах.
Утилита выводит статистику скорости обмена в реальном времени не только для виртуальных дисков, но и любых других устройств - hard disks, cd/dvd-roms, flash cards/sticks, floppys и т.д. Поддерживаемые режимы - чтение, запись, чтение-запись, чтение-запись-проверка (можно задавать размер блока). С режимом записи осторожнее - можно уничтожить данные на диске. Также возможно тестирование пиковой пропускной способности устройства.
Результаты можно писать в лог-файл. Что приятно - присутствует интерфейс на русском языке.
Для пользователей решения по виртуализации настольных ПК предприятия VMware View появилась красивая бесплатная утилита PCoIP Log Viewer 2.0 для визуализации статистики, собираемой через WMI для PCoIP-сессий в виртуальных ПК.
Возможности PCoIP Log Viewer 2.0:
Парсинг и графическое отображение метрик производительности PCoIP из лог-файлов (для View 4.x, 5.0)
Отображение в реальном времени счетчиков WMI для PCoIP (View 5.0)
Возможность сохранять сессии WMI для дальнейшего просмотра и анализа
Возможность WMI-Rewind для перемещения во временном интервале для статистики сессии
Вкладки для различных сессий WMI и лог-файлов
Возможность Drag-and-Drop лог-файлов в окно просмотрщика
Экспорт сохраненных WMI-сессий в формат XLSX для дальнейшего анализа и возможности построения своих графиков
Классная штука. Скачать PCoIP Log Viewer 2.0 можно по этой ссылке.
На сайте проекта VMware Labs, где в последнее время часто появляются полезные утилиты от сотрудников VMware, опубликована новая штучка - VMware I/O Analyzer, виртуальный модуль (Virtual Appliance) для анализа статистики по вводу-выводу.
Данное ПО включает в себя стандартные средства для измерения производительности систем хранения VMware vSphere, которые позволят выявить проблемы и узкие места в инфраструктуре хранилищ.
Ключевые возможности VMware I/O Analyzer:
Интегрированный фрейворк для тестирования хранилищ
Готовый к развертыванию виртуальный модуль
Прост в настройке и возможность исполнения тестов на нескольких хостах ESX/ESXi
Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС
Возможность экспорта данных для последующего анализа
Скачать VMware I/O Analyzer можно по этой ссылке. Инструкция по развертыванию доступна тут.
Мы уже писали об утилите Login Virtual Session Indexer, которая позволяет измерять производительность виртуальных ПК (или терминальных сессий) в окружениях VDI. На днях вышла новая версия Login Virtual Session Indexer 3.5. Версия продукта Express Edition - бесплатна.
Новые возможности Login Virtual Session Indexer 3.5
Zero Footprint Launcher - теперь агентов можно запускать с любой файловой шары, без инсталляции
Pre/Post actions - действия до тестирования и после
Интерфейс Command Line для полной автоматизации тестирования
Возможность прерывания теста
Автоматический перезапуск зависших тестов
Шифрование логов
Улучшения в механизме генерации нагрузки
Поддержка счетчиков RemoteFX Host Performance (GPU, ошибки протокола и производительность ВМ и гипервизора)
Улучшения анализатора в плане интерфейса
Скачать Login Virtual Session Indexer 3.5 можно по этой ссылке (требуется регистрация).
Таги: VMware, VDI, VSI, Performance, Citrix, RemoteFX, Microsoft
Несмотря на то, что в VMware vSphere Client диски виртуальных машин создаются уже выровненными относительно блоков системы хранения данных, многих пользователей платформы беспокоит, не выглядит ли их дисковая подсистема для ВМ таким образом:
Специально для таких пользователей, на сайте nickapedia.com появилась бесплатная утилита UBERAlign, которая позволяет найти виртуальные диски машин с невыровненными блоками и выровнять их по любому смещению.
Но самое интересное, что утилита UBERAlign работает еще и как средство, позволяющее уменьшать размер виртуальных дисков ВМ с "тонкими" дисками (thin provisioning), возвращая дисковое пространство за счет удаленных, но не вычищенных блоков.
Скачать UBERAlign можно по этой ссылке (а вот тут в формате виртуального модуля OVA), полный список возможностей утилиты можно найти тут (там еще несколько видеодемонстраций).
Многие из вас знают, что у компании VMware есть утилита VMmark, которая позволяет измерять производительность различных аппаратных платформ (и работающих в ВМ приложений), когда на них работает платформа виртуализации VMware vSphere. При этом можно сравнивать различные платформы между собой в плане производительности.
Сейчас компания VMware решила сделать несколько иначе: на одном и том же сервере Dell Power Edge R310 поставить vSphere 4, посчитать производительность, а потом сделать то же самое с vSphere 5 на этом же сервере. При тестировании было 4 типа нагрузки с нарастанием до насыщения утилизации сервера по CPU и получились вот такие результаты:
В результате ESXi 5.0 обогнал ESXi 4.1 на 3-4% очкам в зависимости от нагрузки (линии же CPU - практически одинаковы). Но самое интересное, что при росте нагрузки машин на сервер ESXi 5 позволил поддерживать виртуальных машин на 33% больше, чем ESXi 4.1 при условии соблюдения требований к качеству обслуживания для виртуальных машин - правый столбик (как это оценивалось не очень понятно). При этом ESXi 5.0 позволял выполнять в два раза больше операций с инфраструктурой в кластере, чем его предшественник (см. ниже).
Также VMware померила время отклика различных приложений и вычислила их задержки (latency), а также latency для операций инфраструктуры (vMotion, Storage vMotion и VM Deploy). Вышло так (показано в нормализованном виде):
Обратите внимание, что vMotion и Storage vMotion - стали работать значительно быстрее (о том, как это было сделано - тут). Вот как раз за счет низкого latency ESXi 5 и смог обеспечить поддержку на 33% больше виртуальных машин при условии соблюдения QoS.
Как многие из вас знают, в новой версии решения для виртуализации настольных ПК предприятия VMware View 5 появилось множество интересных возможностей, одно из которых возможность отключения передачи картинки десктопа пользователю без потери качества (Disable build-to-lossless) для протокола PCoIP, что очень актуально для WAN-соединений.
Если сравнивать версии VMware View, то для обычного офисного ПК необходима следующая полоса пропускания канала до устройства доступа (тонкого или толстого), если он работает в виртуальной машине:
View 4.x с дефолтными настройками = 150 Kbps
View 5.x с дефолтными настройками = 60Kbps
View 5.x с опцией Disable build-to-lossless = 48Kbps
Как видно, помимо того, что в VMware View 5 существенно уменьшились требования к каналу, с отключением передачи десктопа без потери качества можно добиться снижения требований еще до 30%.
Если говорить о качестве картинки рабочего стола, то выглядит это так:
Из картинки видна, что потери весьма незначительны. Конфигурируется эта настройка через шаблон групповой политики (GPO) pcoip.adm, расположенный на сервере VMware View Connection Server в папке:
Там много интересных настроек протокола PCoIP, но нас интересует первая - Turn off Build-to-Lossless feature:
Все это можно делать и через реестр - читайте KB 1014686 или вот тут.
Вторая оптимизация - это video frame-rate, то есть частота отображения кадров для видео, а также качество передаваемой картинки. Задается она настройкой Configure PCoIP image quality levels, где есть на выбор три опции для тюнинга протокола PCoIP:
Minimum и Maximum Image Quality - по умолчанию установлено в значение 50 (диапазон - от 30 до 100). Определяет качество картинки при заданном количестве кадров (третий параметр). Minimum гарантирует качество картинки, maximum - ограничивает полосу, необходимую для десктопа. Когда канал широкий - настройка Maximum игнорируется и PCoIP работает на максимально возможном качестве картинки.
Minimum и Maximum Initial Image Quality - это качество картинки первично передаваемой на десктоп View 5. Т.е. регулируется первично передаваемый регион картинки, а изменяющиеся регионы будут уже регулироваться первой настройкой. По умолчанию установлено в значение 90 (диапазон - от 30 до 100). Minimum Image Qualityне может превышать Maximum Initial Image Quality.
Maximum Frame Rate - по умолчанию это значение равно 30 кадрам в секунду, но для большинства случаев, если установить 15 кадров, то требование к полосе для видео уменьшится до 1,7 раза, при этом гладкость картинки останется вполне приемлемой.
Третий вид оптимизации - оптимизация полосы пропускания для аудио (Configure the PCoIP session audio bandwidth limit).
Тут варианты такие:
1600 kbps - для любителей качественного звука без компрессии в виртуальном ПК
450 kbps - качественный звук с компрессией
50-450 kbps - что-то среднее между FM-радио и телефоном
Если поставить значение 100, то будет нормальный звук (не для меломанов, конечно), при этом полоса, необходимая для аудио, снижается в 5 раз!
Четвертый вид оптимизации - это оптимизация пользовательского ПК с Windows. Тут рекомендации просты:
Выставляем настройку "optimize for performance" - требования к каналу снижаются на 10%
Отключаем шрифты ClearType - получаем еще 5%
Отключаем картинку рабочего стола, скринсэйвер, Windows update, Super-fetch и Windows index - получаем тоже выигрыш в производительности
И, наконец, регулируем настройку "Configure PCoIP client image cache size policy" - это новая функция VMware View 5, позволяющая определять размер кэша для картинок, передаваемых посредством PCoIP на сторону клиента (по умолчанию - 250 МБ)
Читаем полный список оптимизации гостевых ОС Windows 7 в качестве виртуальных ПК VMware View 5.
Вкратце - это первые шаги по оптимизации PCoIP для VMware View 5. Дальше изучаем следующие материалы:
Как мы уже писали, компания VMware выпустила новую версию своего решения для виртуализации настольных ПК предприятия VMware View 5, имеющую множество улучшений, в том числе в плане производительности протокола PCoIP.
Сейчас стали доступны несколько интересных материалов по View 5. Презентация Родиона Тульского, сотрудника российского подразделения VMware, на русском языке:
Производительность и лучшие практики использования протокола PCoIP:
Компания VKernel (о которой мы много писали) выпустила очередную бесплатную, но весьма интересную утилиту - vScope Explorer. Объекты виртуальной инфраструктуры, включая хост-серверы, кластеры хранилища и виртуальные машины, с помощью утилиты можно визуализовать на dashboarde для виртуального датацентра, где видны основные источники проблем производительности, а также перегрузка ресурсов (вычислительных и хранилищ) и необходимые меры по добавлению новых мощностей:
Основные задачи, которые решает VKernel vScope Explorer:
Идентификация проблем с производительностью для виртуальных машин и хост-серверов в пределах не только одного датацентра, но и нескольких площадок под управлением нескольких серверов vCenter. В качестве движка продукта используется технология Capacity Analytics Engine.
Анализ текущего состояния вычислительных мощностей и информирование о том, как их необходимо увеличивать в случае их нехватки для виртуальных машин (Host Capacity Issues).
Анализ эффективности работы виртуальных машин и вывод информации о тех из них, которым выделено слишком много или, наоборот, слишком мало ресурсов.
Отчет об эффективности использования хранилищ: выводятся datastores, где место используется неэффективно (изолированные vmdk, выключенные машины, снапшоты, шаблоны и т.п.) - все это на одном экране для нескольких виртуальных датацентров.
Скачать бесплатный VKernel vScope Explorer можно по этой ссылке.
Мы уже писали о том, что такое виртуальный модуль VMware VSA, и как он работает в случае отключения сети синхронизации между хост-серверами VMware ESXi. Сегодня приведем несколько полезных материалов.
Во-первых, это документ "Performance of VSA in VMware Sphere 5", рассказывающий об основных аспектах производительности продукта. В нем приведен пример тестирования VSA на стенде с помощью различных инструментов.
Всем интересующимся производительностью VSA для различных типов локальных хранилищ и рабочих нагрузок в виртуальных машинах документ рекомендуется к прочтению.
Во-вторых, появилось интересное видео о том, как VMware VSA реагирует на отключение сети синхронизации хранилищ и сети управления VSA.
Отключение Front-end сети (управление виртуальным модулем и NFS-сервер):
Отключение Back-end сети (зеркалирование хранилищ, коммуникация в кластере):
Ну и, в-третьих, хочу напомнить, что до 15 декабря при покупке VMware vSphere 5 Essentials Plus + VSA вместе действует скидка 40% на модуль VSA.
Таги: VMware, VSA, Performance, Storage, vSphere, HA, SMB, Video
Пост в рамках заказанной вами рубрики "Что почитать?". Компания VMware на прошедшей неделе выпустила несколько очень нужных, полезных, а главное интересных для чтения документов. Вот они:
Документ описывает лучшие практики по переходу на VMware vSphere 5 с предыдущих версий, включая хост-серверы VMware ESXi, сервер vCenter и его базу данных. См. также нашу серию статей о миграции на vSphere 5.
В документе описаны основные рабочие процессы по управлению сервером виртуализации VMware ESXi 5, включая интерфейс vCLI, PowerCLI, управление через SSH и многое другое. Документ будет полезен многим, особенно пользователям бесплатного ESXi и изданий Essentials.
Самый нужный документ для тех, кто планирует внедрение инфраструктуры виртуальных ПК VMware View 5 в условиях высокой нагрузки на канал. В документе рассматривается тонкая настройка протокола PCoIP с помощью групповых политик, все с картинками - просто и понятно. Например, выставление maximum frame rate в 15 и maximum initial image quality в диапазоне 70-80 уменьшает требование к каналу в 2-4 раза при сохранении приличного качества картинки при просмотре видео.
Этот документ уже сфокусирован на производительности решения VMware View 5 в целом. Приведены примеры тестирования решения для различных настроек протокола PCoIP и других компонентов.
Продолжение обзора новой документации не заставит себя долго ждать.
Компания Smart-X выпустила утилиту, которая может оказаться интересной пользователям платформы виртуализации настольных ПК Citrix XenApp. Бесплатное средство ControlUp позволяет наблюдать за производительностью сессий виртуальных ПК и терминальных серверов, что включает в себя мониторинг процессов виртуальных машин, дискового пространства, обновление групповых политик, управление файлами и другие необходимые VDI-администратору функции (например, скриншот гостевой ОС).
Все это позволит усилить контроль за активностью пользователей и своевременно обнаруживать и решать проблемы производительности. Скачать ControlUp можно по этой ссылке.
Мы уже писали о новых возможностях платформы виртуализации настольных ПК VMware View 5, в которой протокол PCoIP и службы доставки десктопов пользователям получили множество новых возможностей и улучшений.
К нам попал интересный документ, описывающий тестирование производительности протокола PCoIP в VMware View 5 в сравнении с View 4.6.
Понятно, что исследование это заказное и согласованное с VMware, но некоторые его результаты в технической части изучить все же интересно.
Для тестирования производительности View 5 использовался известный многим инструмент Login VSI 3.0, который используют для пиара результатов тестов как компания VMware, так и Citrix. Результатыполучаютсяинтересными.
Давайте посмотрим, что получилось на этот раз. Для одного сферического пользователя в вакууме можно достигнуть снижения требований к ширине канала (при работе в LAN) до 74% при легкой нагрузке в виртуальном ПК (браузер+Word+Outlook):
При работе через WAN-соединение можно достигнуть 70%-го эффекта:
Почти аналогичные результаты достигаются для пяти одновременных сессий:
Для средней нагрузки (стандартный набор офисных приложений) улучшение уже поменьше, но все равно весьма неплохо:
Для нагрузки с флэш-графикой еще немного меньше, но тоже радует глаз:
Ну и, само собой, в документе вы сможете найти описание тестового стенда и методики тестирования, что также представляет интерес.
Режим SplitRx mode, который позволяет увеличить производительность сетевого взаимодействия для некоторых нагрузок
Функция VMX swap, которая уменьшает резервирование памяти для ВМ
Миграция vMotion по нескольким сетевым адаптерам (vmknics)
В документы присутствуют следующие темы:
Выбор оборудования для развертывания vSphere
Управление электропитанием
Настройка ESXi 5 для улучшения производительности
Настройка гостевой ОС для улучшения производительности
Настройка vCenter 5 и его базы данных для улучшения производительности
Производительность vMotion и Storage vMotion
Производительность Distributed Resource Scheduler (DRS) и Distributed Power Management (DPM)
Компоненты High Availability (HA), Fault Tolerance (FT) и VMware vCenter Update Manager
Документ обязателен к прочтению администраторам средних и крупных инфраструктур VMware vSphere 5. Кроме того, напомним о следующих новых документах о производительности платформы:
1 миллион операций ввода-вывода в секунду на хост ESXi (этого в лаборатории добивались еще год назад при экспериментах в лабораториях VMware, тогда это держалось в секрете)
300 000 IOPS на одну виртуальную машину на хосте
Контроллеры Paravirtual SCSI (PVSCSI) эффективнее используют CPU, чем LSI Logic SAS
Ну и надо отметить, что задержки на одну операцию ввода-вывода меняются слабо с увеличением числа виртуальных машин.
В новой версии платформы виртуализации VMware vSphere 5 появилась интересная возможность - Host Cache. Это механизм, который позволяет пользователю vSphere 5 выделить определенное место на локальных дисков хост-сервера ESXi (лучше всего, если это будут SSD-диски) для хранения свопируемых страниц памяти виртуальных машин. Это позволяет существенно увеличить скорость работы файлов подкачки виртуальных машин (vswp), так как они находятся на локальных высокопроизводительных дисках, и, соответственно, увеличить общее быстродействие инфраструктуры виртуализации.
Хорошая и развернутая статья о Swap to Host cache в VMware vSphere 5 есть у Duncan'а Epping'а, а здесь мы приведем основные ее выдержки.
Прежде всего, после установки VMware ESXi 5 хост может не увидеть локальные SSD-хранилища как пригодные для хранения кэша виртуальных машин. Для этого есть вот такой хак от Вильяма Лама. Далее мы идем на вкладку Configuration в vSphere Client и выбираем секцию Host Cache Configuration:
Тут мы можем задать объем дискового пространства на локальном томе VMFS, который мы можем использовать для файлов подкачки виртуальных машин, работающих на этом хосте. После включения этой возможности на этом локальном томе VMFS появится куча vswp-файлов, в которые гостевые ОС виртуальных машин этого хоста будут складывать свои свопируемые страницы памяти.
Поскольку эти своп-файлы находятся только на этом хосте, то при миграции vMotion содержимое страниц памяти из этих файлов надо скопировать на другой хост в его Host Cache или в vswp-файл в папке с виртуальной машиной на общем хранилище. Это, само собой, увеличивает время на миграцию vMotion, и это надо учитывать.
Что касается надежности при отказе хост-сервера, то тут нет проблем - так как при отказе хоста все равно его виртуальные машины перезапускаются на других хостах, то данные из файлов подкачки для ВМ уже не будут нужны.
Наблюдать за использованием Host Cache можно из VMware vCenter 5 с помощью метрик "Swap in from host cache" и "Swap out to host cache" (а также "rate..."). В результатах вывода консольной утилиты esxtop это метрики LLSWR/s и LLSWW/s.
Что будет когда место на локальном свопе Host Cache закончится? Сервер ESXi начнет копировать страницы в обычный vswp-файл, который находится в папке с виртуальной машиной, что само собой повлияет на производительность. Кстати, размер Host Cache можно изменять при работающем хосте и виртуальных машинах, поэтому лучше увеличивать его вовремя, да и в целом не доводить до большого свопа виртуальных машин (то есть, правильно сайзить хосты по памяти для ВМ). К примеру, Duncan рекомендует 128 ГБ SSD-диски в RAID-1 для 128 ГБ оперативной памяти хоста.
Альтернатива Host Cache - это задать параметр VM swapfile location для виртуальной машины в ее настройках, указав, например, локальный SATA или SSD-диск (можно использовать и быстрые общие хранилища).
Мы недавно уже писали о том, какие новые возможности появятся в решении для виртуализации ПК предприятия VMware View 5. Теперь появилось еще несколько интересных подробностей. Посмотрите на эту картинку сравнения RDP 7 и PCoIP новой версии:
В VMware обещали нам 3 основных нововведения в VMware View 5 касательно оптимизации канала по протоколу PCoIP:
Client Side Caching - это некий аналог технологии Citrix IntelliCache, которая появилась в платформе Citrix XenServer 5.6 SP2 (со стороны брокера соединений у Citrix его поддержка включена в XenDesktop 5 SP1). У Citrix эта технология позволяет снижать стоимость обслуживания инфраструктуры виртуальных ПК и повышать их производительность за счет использования комбинации общего и локального хранилища (с кэшированием) для виртуальных машин.
Улучшения Lossless CODEC - как известно, PCoIP использует lossless-кодек, который не очень хорошо сейчас работает при "тонком" канале со стороны клиента. Говорят, что это связано с компрессией шрифтов ClearType. Теперь это собираются весьма сильно доработать.
Ну и возможность отключить build to lossless (BTL). Теперь пользователям позволяет передавать рабочий стол на клиентское устройство с некоторым ухудшением качества изображений, но зато можно существенно снизить требования к пропускной способности канала.
Все это нам обещает уменьшение требований к каналу до 75% по сравнению с версией VMware View 4.x (где уже и так были некоторые улучшения PCoIP). Однако плохая новость в том, что поддержку компонента View Accelerator, отвечающего за кэширование на стороне клиента, похоже не успели встроить в VMware vSphere 5, а соответственно ее не будет и в VMware View 5 (подробности тут). Плюс ко всему, надо отметить, что показатели даже нового PCoIP в VMware View 5 все же уступают технологии Citrix HDX, а у компании Citrix есть еще такие оптимизационные решения как Branch Repeater.
Ну и еще одна плохая новость - цены на пакеты VMware View Enterprise Add-on и VMware View Premier Add-on повысятся (на картинке подсвечено синим, цена не для России):
Мы уже писали о новых возможностях версии Citrix XenServer 6.0 "Project Boston", теперь же он доступна для свободного скачивания с сайта Citrix, при этом добавилось несколько новых функций.
Чуть более развернутое описание новых возможностей Citrix XenServer 6.0:
Product Simplification - Технологии Workload Balancing, StorageLink и Site Recovery полностью интегрированы в XenServer. Управление ими происходит через центральную консоль XenCenter, все виртуальные модули (virtual appliances) теперь построены на базе Linux и поставляются в соответствующих форматах VA (например, модуль Workload Balancing). Дистрибутив теперь поставляется на одном CD.
Architectural Changes - в качестве гипервизора используется доработанный Xen 4.1, включающий в себя распределенный коммутатор Open vSwitch (OVS), который используется по умолчанию. В Open vSwitch появились улучшения NIC Bonding (Teaming), поддержка Jumbo Frames. Говорится также об улучшении производительности сетевого взаимодействия до 70-100% для некоторых сценариев. Также есть поддержка SR-OIV и увеличена производительность сетевого взаимодействия (особенно для продуктов NetScaler VPX и SDX).
Self-Service & Cloud Building Tools - новая консоль Self-Service Manager позволит создавать окружения с сервисом самообслуживания пользователей (поставляется в виде виртуального модуля с веб-интерфейсом). Это что-то вроде облачного менеджера для частных облаков, который поддерживает платформы XenSever и VMware vSphere. Поддерживаются виртуальные модули OVF, возможность создавать многомашинные конфигурации (vApp) для использования с функциями HA и Site Recovery, а также возможность импорта виртуальных дисков VMware VMDK и Microsoft VHD.
Microsoft System Center Integration - Управление хостами XenServer и виртуальными машинами из System Center Virtual Machine Manager (VMM) 2012. Также предполагается мониторинг XenServer с помощью System Center Operations Manager 2012, на который будет накатываться специальными пакет от Citrix (подробности будут позже).
XenDesktop Enhancement & Improvements - Улучшения технологии HDX для оптимизации производительности виртуальных ПК и поддержка GPU Pass-Thru, что позволяет раздавать ресурсы видеоадаптера виртуальным машинам (поддержка как single GPU card, так и multi-card GPU card). Это все позволяет за счет технологии XenDesktop HDX 3D Pro улучшить поддержу CAD и требовательных к графике приложений.
Guest OS Support Updates - поддержка гостевых ОС Ubuntu 10.04, RHEL 5.6 и SLES 10 SP4. Экспериментальная поддержка Solaris и Ubuntu 10.10. Версии RHEL 6 и Debian Squeeze поддерживаются еще с XenServer 5.6 SP2.
Platform Enhancements & Improvements - мастер "Rolling Pool Upgrade" (упрощение миграции с 5.6 на 6.0), поддержка хранилищ NFS для высокой доступности (HA) и последовательности загрузки ВМ в случае сбоя, поддержка 1ТБ памяти хост-сервера, улучшенные параметры количества vCPU (16) и vRAM (128 ГБ) для виртуальных машин, улучшения NIC bonding (а также поддержка active/passive bonding).
Другие изменения - Self-Service Manager - это замена Lab Manager. Поддержка последнего еще некоторое время останется. Некоторые массивы перестали поддерживаться StorageLink, что проверяется при апгрейде с 5.6 на 6.0. Кроме того, теперь Site Recovery не зависит от технологии StorageLink, что позволяет более гибко подходить к созданию катастрофоустойчивых конфигураций на базе XenServer.
Мы уже писали о некоторых расширенных настройках дисковой подсистемы серверов VMware ESX / ESXi, которые позволяют управлять доступом виртуальных машин к хранилищам VMFS. Сегодня постараемся описать еще несколько параметров:
Опишем еще несколько параметров Advanced Settings для категории Disk:
Disk.MaxLUN - это число (по умолчанию 256, т.е. ID от 0 до 255), опеделяющее максимальное количество томов, доступных серверу VMware ESX / ESXi.
Disk.MaskLUNs = "vmhba1:0:32-35;vmhba2:0:1,5,7-9" - это параметр, определяющий маскирование томов VMFS в SAN. В данном примере от хоста ESX / ESXi скрываются LUN с ID от 32 до 35 для HBA-адаптера vmhba1, а также LUN с ID 1,5,7,8,9 для адаптера vmhba2. Разделитель для адаптеров - точка с запятой.
Disk.SupportSparseLUN - эта настройка включена по умолчанию (значение 1), по желанию ее можно выставить в 0. Значение 1 означает, что на ESX / ESXi включена поддержка номеров LUN, идущих непоследовательно (например, 0,6 и 23). Если у вас все LUN идут по порядку, то можно отключить эту функцию, выставив значение 0. В этом случае будет тратиться немного меньше времени на сканирование всех LUN.
Disk.DiskMaxIOSize - с помощью этого параметра можно задать максимальный размер операции ввода-вывода (IO request). По умолчанию, сервер VMware ESX / ESXi поддерживает объем IO-запроса размером до 32767 KB, запросы большего объема разбиваются на части. Для некоторых хранилищ (это надо смотреть в документации) такой размер IO-запроса, генерируемый некоторыми приложениями может оказаться слишком большим и привести к снижению производительности. Поэтому можно уменьшить этот параметр, в зависимости от модели дискового массива. Более подробно описано в KB 1003469.
Disk.SchedQControlVMSwitches - по умолчанию, этот параметр равен 6. Он означает вот что. Когда у нас несколько виртуальных машин отдают свои IO к LUN, у нас вступает в игру параметр Disk.SchedNumReqOutstanding (а не глубина очереди адаптера), который определяет границу для виртуальных машин по одновременной отдаче команд ввода-вывода. Если эта граница превышена - наступает постановка команд в очередь. Но VMkernel должен перед этим обнаружить, что LUN использует несколько ВМ. Так вот Disk.SchedQControlVMSwitches определяет сколько раз должен VMkernel это обнаружить. А понимает он это только тогда, когда следующее IO приходит не от той машины, которая дала предыдущий IO. Надо понимать, что это значение может быть достигнуто не очень скоро, когда у нас есть одна высоконагруженная ВМ A на одном LUN, и там же есть низконагруженная по IO машина (B). И это хорошо, поскольку в таких окружениях не должно быть урезания по вводу-выводу для высоконагруженной ВМ.
Disk.SchedQuantum - по умолчанию, этот параметр равен 8. Он определяет число высокоприоритетных последовательных команд, которые идут к дисковому устройству. Последовательными командами считаются те, которые идут к расположенным рядом секторам диска. Что такое расположенные рядом сектора диска? Это те, которые (по умолчанию) находятся друг от друга на расстоянии не более 2000 секторов. Такие команды выполняются до 10 раз быстрее, чем с далекими секторами.
Disk.SectorMaxDiff - это и есть параметр, определяющий, что такое "близкие" секторы для предыдущего параметра. По умолчанию, он равен 2000.
Disk.SchedQControlSeqReqs - этот параметр (по умолчанию, 128) определяет число последовательных IO без переключений (т.е. последовательность команд только от одной ВМ), после которых счетчик Disk.SchedQControlVMSwitches будет сброшен в 0, а машина сможет использовать опять всю очередь адаптера. Этот параметр нужен для того, чтобы после всплеска нагрузки на ВМ B в первом примере, когда этот всплеск прекратится, ВМ A снова смогла получить в свое распоряжение всю очередь адаптера и дальше работать в интенсивном режиме без входа в игру параметра Disk.SchedNumReqOutstanding, который распределяет IO на LUN.
Воткнули? Нет? Тогда еще раз перечитывайте статью Duncan'а. А еще один блоггер, Andy Grant, нарисовал замечательную картинку (кликабельно):
Мы уже писали об утилите VDI Sizing Tool от отчественного разработчика Василия. Она позволяет сымитировать нагрузку на виртуальные ПК предприятия (VMware View или Citrix XenDesktop) с помощью специальных агентов и измерить производительность решения (старт приложений, создание RDP-сессии и т.д.).
Недавно вышла версия VDI Sizing Tool 0.2. В новой версии утилиты появилась поддержка VMware View Client для протоколов RDP и PCoIP. А
на сайте автора появилась статья про сравнение потребления ресурсов
протоколами PCoIP и RDP:
А сегодня мы расскажем вам еще об одной бесплатной утилите StarWind под названием RAM Disk Emulator (Virtual RAM Drive). Это средство для создания RAM-дисков, то есть виртуальных дисков, выглядящих как локальные в системе, но созданные на основе участка оперативной памяти. Само собой, такие диски на порядок быстрее обычных.
Так как при выключении компьютера такие диски пропадают, то их удобно использовать, например, при работе с расшифрованными копиями зашифрованных файлов (после выключения диск очистится).
RAM Disk Emulator прост в использовании. Устанавливаете, создаете новый диск с заданным объемом (максимум 1024 МБ для одного диска, дисков может быть несколько) и все. Можно поставить настройки форматирования RAM-диска и параметры его монтирования в ОС.
И напоследок. Костян, мой добрый товарищ из StarWind, завел блог о технических вопросах, касающихся StarWind Enterprise. Заходим: http://constantinv.posterous.com.
Как вы знаете, есть такая компания VKernel, которая занимается производством средств для управления виртуальной инфраструктурой (о ней мы пишем тут). Недавно в продуктовой линейке компании появилось два продукта для платформы Microsoft Hyper-V: VKernel Capacity Analyzer и VKernel Chargeback.
Это средство для анализа инфраструктуры Hyper-V на предмет наличия узких мест в плане производительности, которое также позволяет осуществлять планирование развития инфраструктуры в аппаратной части (то есть, прогнозирование роста необходимых вычислительных мощностей).
А эта штука позволяет вам учитывать затраты на содержание инфраструктуры виртуализации Hyper-V и стоимость выделения новых ресурсов под развертываемые сервисы. Актуально, в основном, для крупных компаний.
Скачать пробные версии этих утилит VKernel можно по этой ссылке.